我们提出了一种调查,其中在构建具有神经网络的模型时包括现有科学知识的方式。纳入领域知识不仅仅是构建科学助理,而且还有许多其他领域,涉及使用人机协作了解数据的其他领域。在许多这样的情况下,基于机器的模型结构可以显着地利用具有以足够精确的形式编码的域的人人类知识。本文审查了通过更改的域名知识:输入,丢失功能和深网络的架构。分类是为了便于阐述:在实践中,我们预计将采用这种变化的组合。在每个类别中,我们描述了所显示的技术,以产生深度神经网络性能的显着变化。
translated by 谷歌翻译
过去几年目睹了提高自治车辆激光器的感知性能的兴趣越来越兴趣。虽然大多数现有的工作都侧重于开发新的深度学习算法或模型架构,但我们研究了物理设计的视角,即多个激光雷达的不同放置如何影响基于学习的感知的问题。为此,我们介绍了一种易于计算的信息理论代理度量,以定量和快速评估不同类型对象的3D检测的激光雷达放置。我们还在现实的Carla模拟器中提供了一个新的数据收集,检测模型培训和评估框架,以评估不同的多激光雷达配置。通过自动驾驶公司设计灵感的多种普遍的展示,我们通过广泛的实验表明了我们在基提上不同代表算法的替代公制和对象检测性能之间的相关性,验证了我们激光雷达展示率评估方法的有效性。我们的结果表明,在基于3D点云的对象检测中,传感器放置是不可忽略的,这将在具有挑战性的3D对象检测设置方面有助于平均精度的5%〜10%。我们认为这是第一次定量调查激光雷达放置对感知性能的影响的研究之一。
translated by 谷歌翻译
深度加强学习已经实现了重要的里程碑,然而,加强学习培训和推理的计算需求仍然很大。量化是减少神经网络的计算开销的有效方法,但在加强学习的背景下,尚不清楚量化的计算益处是否超过了相应量化误差引入的精度成本。为了量化这一权衡,我们对加强学习的量化进行了广泛的研究。我们应用标准量化技术,如训练后量化(PTQ)和量化意识培训(QAT),以全面的加强学习任务(Atari,Gym),算法(A2C,DDPG,DQN,D4PG,PPO)和模型(MLPS,CNNS)并表明可以将策略量化为8位,而不会降低奖励,从而在资源受限的边缘设备上实现了显着的推论加速。通过标准量化技术对加固学习政策的有效性,我们介绍了一种新颖的量化算法,\ TEXTIT {ACTORQ},用于量化演员 - 学习者分布式增强学习培训。通过利用Learner上的全精度优化并在演员上的量化执行,\ Textit {ActorQ}在保持收敛时启用8位推理。我们开发了一个用于围绕\ Texit {Actorq}的量化强化学习培训系统,并展示结束于最终加速$> $ 1.5 $ \ times $ - 2.5 $ \ times $超过一系列任务的完整精度培训(深型控制套件) 。最后,我们分解了分布式强化学习培训(如通信时间,推理时间,模型加载时间等)的各种运行时成本,并评估量化对这些系统属性的影响。
translated by 谷歌翻译
用于评估表结构识别算法的现有指标在捕获文本和空细胞对齐方面存在缺点。在本文中,我们以先前的工作为基础,并提出了一个新的度量标准的IOU相似性(TEDS(iou)),用于表结构识别,该识别使用边界框而不是文本,同时对上述缺点也是强大的。我们通过各种示例证明了对以前的度量标准的有效性。
translated by 谷歌翻译
最近的工作突出了因果关系在设计公平决策算法中的作用。但是,尚不清楚现有的公平因果概念如何相互关系,或者将这些定义作为设计原则的后果是什么。在这里,我们首先将算法公平性的流行因果定义组装成两个广泛的家庭:(1)那些限制决策对反事实差异的影响的家庭; (2)那些限制了法律保护特征(如种族和性别)对决策的影响。然后,我们在分析和经验上表明,两个定义的家庭\ emph {几乎总是总是} - 从一种理论意义上讲 - 导致帕累托占主导地位的决策政策,这意味着每个利益相关者都有一个偏爱的替代性,不受限制的政策从大型自然级别中绘制。例如,在大学录取决定的情况下,每位利益相关者都不支持任何对学术准备和多样性的中立或积极偏好的利益相关者,将不利于因果公平定义的政策。的确,在因果公平的明显定义下,我们证明了由此产生的政策要求承认所有具有相同概率的学生,无论学术资格或小组成员身份如何。我们的结果突出了正式的局限性和因果公平的常见数学观念的潜在不利后果。
translated by 谷歌翻译
表问题回答(TQA)是一项重要但不足的任务。大多数现有的QA数据集都采用非结构化文本格式,只有很少的数据集使用表作为上下文。据我们所知,在生物医学领域中,没有任何TQA数据集存在经常用于提供信息的生物医学领域。在本文中,我们首先使用22个模板和关于鉴别诊断的生物医学教科书中的上下文来回答数据集Biotabqa的桌子问题。 Biotabqa不仅可以用来教授模型如何从表中回答问题,还可以评估模型如何推广到看不见的问题,这是生物医学应用的重要情况。为了实现概括评估,我们将模板分为17个培训和5个跨任务评估。然后,我们使用BioTABQA上的单个和多任务学习开发两个基准。此外,我们探索教学学习,这是一种显示出令人印象深刻的概括性能的技术。实验结果表明,我们的指导调整模型在各种评估设置中平均比单一和多任务基准平均比单一和多任务基准,更重要的是,更重要的是,指令调整的模型在交叉任务上的基准比5% 。
translated by 谷歌翻译
在环境中,从天气预报到财务预测的政治预测,未来二元成果的概率估计通常随着时间的推移而发展。例如,随着新信息可用的时间,特定日期的估计可能性在特定日变化。鉴于这种概率路径的集合,我们介绍了一个贝叶斯框架 - 我们称之为高斯潜在信息鞅,或粘合 - 用于模拟动态预测的结构随着时间的推移。例如,假设一个星期下雨的可能性是50%,并考虑两个假设情景。首先,人们希望预测同样可能成为明天的25%或75%;第二,人们预计预测将在未来几天保持不变。一个时间敏感的决策者可以在后一种情况下立即选择一个行动方案,但可能会推迟他们在前者的决定,知道新信息迫在眉睫。我们通过假设根据信息流的潜在进程的预测更新来模拟这些轨迹,从历史数据推断出来。与时间序列分析的一般方法相比,这种方法保留了诸如Martingale结构的概率路径的重要属性,以及适当的挥发性,并且更好地量化了概率路径周围的未来不确定性。我们表明光泽优于三种流行的基线方法,产生了由三种不同度量测量的更高估计的后验概率路径分布。通过阐明时间随着时间的推移来解除预测的动态结构,希望能帮助个人做出更明智的选择。
translated by 谷歌翻译
Algorithms are now regularly used to decide whether defendants awaiting trial are too dangerous to be released back into the community. In some cases, black defendants are substantially more likely than white defendants to be incorrectly classi ed as high risk. To mitigate such disparities, several techniques have recently been proposed to achieve algorithmic fairness. Here we reformulate algorithmic fairness as constrained optimization: the objective is to maximize public safety while satisfying formal fairness constraints designed to reduce racial disparities. We show that for several past de nitions of fairness, the optimal algorithms that result require detaining defendants above race-speci c risk thresholds. We further show that the optimal unconstrained algorithm requires applying a single, uniform threshold to all defendants. e unconstrained algorithm thus maximizes public safety while also satisfying one important understanding of equality: that all individuals are held to the same standard, irrespective of race. Because the optimal constrained and unconstrained algorithms generally di er, there is tension between improving public safety and satisfying prevailing notions of algorithmic fairness. By examining data from Broward County, Florida, we show that this trade-o can be large in practice. We focus on algorithms for pretrial release decisions, but the principles we discuss apply to other domains, and also to human decision makers carrying out structured decision rules.
translated by 谷歌翻译